Peut-on faire confiance à l'intelligence artificielle ?
"Ce n’est pas un problème purement philosophique. En déléguant nos décisions aux algorithmes et à l’intelligence artificielle, nous ne perdons pas seulement notre dignité humaine (ce qui n’est pas rien !) : ces systèmes ont eux aussi leurs failles. « Le deep learning, technique parmi d’autres en intelligence artificielle, est à la fois celle qui occasionne le plus d’applications spectaculaires et qui présente un inconvénient majeur : on ne sait pas en expliquer les résultats. Ce sont des réseaux de neurones qui fonctionnent comme des boîtes noires », souligne Sébastien Konieczny, chercheur au Centre de recherche en informatique de Lens. Avec cette forme d’intelligence artificielle en effet, on ne reconnaît pas un chat parce qu’« il a deux oreilles, quatre pattes, etc. » (raisonnement humain composé de règles et dicté à la machine), mais parce qu’il ressemble à une foultitude d’autres chats dont on aura fourni les images à la machine pour l’« entraîner ». Quant à savoir quelles ressemblances font tilt pour celle-ci, mystère et boule de gomme.
« Or, il serait bon d’expliquer les raisons qui président aux choix importants, afin d’être en mesure de les justifier. Et garantir ainsi à chacun un traitement équitable », rappelle Raja Chatila, directeur de l’Institut des systèmes intelligents et de robotique. Pourrait-on rendre ces systèmes plus transparents ? « Il y a des recherches sur “l’explicabilité” de ces boîtes noires, notamment financées par la DARPA », répond le chercheur. « Mais les réseaux de neurones ne sont que des calculs numériques : je ne vois pas comment on pourrait en extraire des concepts », observe Sébastien Konieczny. Or, personne n’acceptera de se voir refuser un prêt ou un poste intéressant à cause de la connexion 42 du réseau de neurones hélas inférieure à 0,2…
Les machines « contaminées » par nos préjugés
Pire encore : les machines ont beau disposer d’une logique froide, elles n’échappent pas aux préjugés. En matière d’apprentissage, « Tay-la-révisionniste » n’est pas la seule mauvaise élève. En avril 2017, la revue Science révélait les catastrophiques stéréotypes racistes et sexistes de GloVe, une intelligence artificielle « nourrie » de 840 milliards d’exemples piochés sur le Web en quarante langues différentes dans le but de faire des associations de mots. « Si un système est entraîné sur une masse de données issues de discours humains, rien d’étonnant à ce qu’il en reproduise les biais », indique Sébastien Konieczny.
En mars 2016, Tay, le chatbot de Microsoft fondé sur l'apprentissage machine, s'est mis à tweeter des messages racistes et sexistes en un temps record et fut désactivé au bout de quelques heures.
Même problème pour les prêts bancaires. « Le système peut apprendre à partir des dix années précédentes à qui l’on a accordé un prêt et à quel taux, selon son salaire, sa situation familiale, etc. Mais il reproduira les biais des décisions humaines de cette période : alors si les minorités ethniques payaient des intérêts plus élevés par exemple, cette injustice se perpétuera », souligne Serge Abiteboul. « Le concepteur de ces systèmes n’est pas seul en cause, celui qui l’entraîne est également responsable en cas de dérive », complète le chercheur. Or, il sera impossible d’anticiper tous les biais potentiels. En particulier pour les systèmes conçus pour apprendre en permanence afin de s’améliorer, comme « Tay-la-langue-de-vipère » qui se modifiait en imitant ses malicieux interlocuteurs. Avant de déployer le deep learning à grande échelle, il serait bon de lui inculquer quelques règles « morales ».
Le monde numérique s’est développé si vite qu’il en est encore au stade du western : les injustices foisonnent, l’État ne comprend pas assez bien pour légiférer correctement, et les citoyens sont perdus.
« Dans un réseau de neurones, méthode purement numérique, on ne peut ni coder ni dicter de règles d’éthique, comme imposer que le résultat ne dépende pas du sexe, de l’âge, de la couleur de peau… Mais c’est possible avec une approche symbolique qui, elle, est faite de règles rédigées par le programmeur », commente Sébastien Konieczny. « Une solution serait d’hybrider les systèmes d’apprentissage avec des prescriptions que la machine serait contrainte de respecter », complète Jean-Gabriel Ganascia, président du Comité d’éthique du CNRS et chercheur au Laboratoire d’informatique de Paris 66 (lire l'encadré ci-dessous). « Notez que l'on ignore si c’est possible techniquement car les deux approches sont intrinsèquement différentes, souligne Sébastien Konieczny. C’est justement l’un des gros défis à venir en intelligence artificielle. »
Autre question à résoudre : qui décidera des règles à implémenter ? « Certainement pas les informaticiens, répond Serge Abiteboul. « Ce ne devrait pas être à eux de décider comment mettre au point l’algorithme qui calcule le sort des bacheliers, tout comme ce ne devrait pas être à Google de décider d’interdire des sites extrémistes ou de fake news, déplore le chercheur. Le monde numérique s’est développé si vite qu’il en est encore au stade du western : les injustices foisonnent, l’État ne comprend pas assez bien pour légiférer correctement, et les citoyens sont perdus, résume-t-il. La loi relative au renseignement de juillet 2015 en est un tragique exemple. La majorité des informaticiens étaient contre car ils en comprenaient les conséquences. Politiques et citoyens qui l’ont votée ou laissé voter peuvent ne pas être d’accord avec nous, bien sûr, mais je doute que ce soit en connaissance de cause », regrette-t-il."
Charline Zeitoun, CNRS Le Journal